【深度学习】sdwebui A1111 加速方案对比,xformers vs Flash Attention 2

安装pytorch2.2以上,启用sdpa(–opt-sdp-no-mem-attention,就可以不用安装xformers了。FlashAttention2是FlashAttention的改进...